Coca-Cola ký thỏa thuận 1,1 tỉ USD để sử dụng dịch vụ đám mây và AI của Microsoft

Theo thỏa thuận này, và Coca-Cola sẽ "chung tay thử nghiệm" Azure OpenAI. Đây là dịch vụ sử dụng công nghệ từ OpenAI, cho phép khách hàng xây dựng chatbot và các dịch vụ AI khác chạy trên dịch vụ điện toán đám mây Azure của Microsoft.

Microsoft là nhà đầu tư lớn nhất vào với hơn 10 tỉ USD.

Vào năm 2020, Coca-Cola từng ký một thỏa thuận trị giá 250 triệu USD trong 5 năm để sử dụng phần mềm đám mây và kinh doanh của Microsoft.

Hai công ty cho biết Coca-Cola sẽ thử nghiệm các dịch vụ Copilot của Microsoft để xem công cụ này cải thiện năng suất cho nhà sản xuất đồ uống như thế nào. Copilot là trợ lý AI có thể giúp tóm tắt các cuộc thảo luận dài qua email và xây dựng các slide cho các bài thuyết trình kinh doanh, cùng nhiều chức năng khác.

Thỏa thuận được công bố hôm 23.4 cũng bao gồm cả việc Coca-Cola mở rộng việc sử dụng các phần mềm thông thường khác của Microsoft như Dynamics 365 (được sử dụng bởi các chuyên gia bán hàng và cạnh tranh với Salesforce).

Microsoft không tiết lộ chi tiết về tài chính của thỏa thuận trị giá 1,1 tỉ USD với Coca-Cola theo tỷ lệ dành cho các dịch vụ AI so với phần mềm đám mây truyền thống.

Coca-Cola đã ký thỏa thuận trị giá 1,1 tỉ USD trong 5 năm để sử dụng dịch vụ điện toán đám mây và AI của Microsoft - Ảnh: Internet

Microsoft phát hành mô hình AI nhỏ gọn, tiết kiệm chi phí

Cũng trong ngày 23.4, Microsoft đã trình làng Phi-3-mini, mô hình AI nhỏ gọn, tiết kiệm chi phí, có thể thực hiện các nhiệm vụ như tạo nội dung và bài đăng trên mạng xã hội trong khi sử dụng lượng dữ liệu nhỏ hơn đáng kể so với các mô hình thông thường.

Theo tuyên bố của Microsoft, Phi-3-mini hoạt động tốt hơn các mô hình AI có kích thước gấp đôi nó về hiệu suất trên nhiều bài kiểm tra đánh giá kỹ năng ngôn ngữ, lập trình và toán học. Điều này biến Phi-3-mini thành lựa chọn hấp dẫn cho các công ty có nguồn lực hạn chế, vốn thường gặp khó khăn trong việc triển khai và vận hành các mô hình AI lớn.

Theo Microsoft, một doanh nghiệp có thể sử dụng Phi-3-mini để tóm tắt các điểm chính của tài liệu dài, trích xuất các thông tin có liên quan và xu hướng ngành từ các báo cáo nghiên cứu thị trường.

Phi-3-mini sẽ có sẵn ngay trên danh mục mô hình AI của nền tảng dịch vụ đám mây Azure, nền tảng mô hình học máy Hugging Face và Ollama (cấu trúc để chạy các mô hình AI trên máy tính cá nhân).

Tuần trước, Microsoft đã đầu tư 1,5 tỉ USD vào G42 - công ty AI đặt trụ sở tại UAE. Gã khổng lồ phần mềm Mỹ từng hợp tác với công ty khởi nghiệp Mistral AI (Pháp) để đưa mô hình AI của họ trên Azure.

Microsoft đặt mục tiêu nội bộ là tích lũy 1,8 triệu bộ xử lý đồ họa (GPU) vào cuối năm 2024, theo tài liệu mà trang Insider nhìn thấy.

Microsoft đang cố gắng tạo ra mô hình AI nhanh hơn, tốt hơn và rẻ hơn, nhưng nỗ lực này chủ yếu phụ thuộc vào việc công ty mua chip, chủ yếu là GPU từ Nvidia.

Tài liệu nội bộ gợi ý rằng Microsoft có kế hoạch tăng gấp ba số lượng GPU mà hãng đang có vào năm 2024.

Hợp tác với OpenAI, Microsoft đang dẫn đầu trong sự bùng nổ AI tạo sinh. Thế nhưng, duy trì vị trí hàng đầu trong lĩnh vực này là việc khó khăn và rất tốn kém.

Từ năm tài chính hiện tại đến năm tài chính 2027, Microsoft dự kiến sẽ chi khoảng 100 tỉ USD cho GPU và trung tâm dữ liệu, hai người quen thuộc với kế hoạch này nói với Insider.

Frank Shaw (người phát ngôn của Microsoft) từ chối bình luận, viện dẫn quy định im lặng tiêu chuẩn mà các công ty đại chúng phải tuân theo trước khi báo cáo thu nhập. Microsoft dự kiến sẽ báo cáo kết quả kinh doanh quý 1/2024 trong những ngày tới.

Những gã khổng lồ công nghệ khác cũng đang xây dựng kho GPU khổng lồ. Đó là một trong những lý do giúp Nvidia tăng trưởng mạnh và hiện có vốn hóa thị trường hơn 2.100 tỉ USD. Nvidia hiện là nhà cung cấp GPU số 1 thế giới.

Mark Zuckerberg, Giám đốc điều hành Meta Platforms, hồi đầu năm nay cho biết công ty truyền thông xã hội này sẽ mua khoảng 350.000 GPU Nvidia H100 vào năm 2024. Kết hợp với số GPU tương đương từ các nhà cung cấp khác, Meta Platforms sẽ có tổng cộng khoảng 600.000 GPU vào cuối năm 2024, theo Mark Zuckerberg.

Nvidia gần đây đã giới thiệu B200 Blackwell, GPU mới nhất và nhanh nhất của hãng. Trong khi H100 của Nvidia (giá 30.000 USD) là một trong những GPU mạnh nhất hiện có trên thị trường, nhưng rất khan hiếm.

Theo Nvidia, B200 Blackwell có tốc độ xử lý một số tác vụ nhanh hơn 30 lần so với H100. Jensen Huang, Giám đốc điều hành Nvidia, nói với trang CNBC rằng B200 Blackwell sẽ có giá từ 30.000 đến 40.000 USD (gần 1 tỉ đồng). Sau đó, ông nói rằng Nvidia sẽ đưa B200 Blackwell vào các hệ thống máy tính lớn hơn và giá sẽ thay đổi tùy theo giá trị mà chúng mang lại.

Theo Nvidia, B200 Blackwell dự kiến sẽ xuất xưởng vào cuối năm 2024. Nvidia cho biết các khách hàng lớn gồm Amazon, Google, Microsoft, OpenAI và Oracle dự kiến sẽ sử dụng B200 Blackwell trong các dịch vụ điện toán đám mây mà họ cung cấp, cũng như các dịch vụ AI riêng.

Insider mới đây có được một tài liệu khác tiết lộ Microsoft đang đảm bảo có số lượng GPU kỷ lục để xử lý khối lượng công việc AI mới trong các trung tâm dữ liệu.

Trong nửa cuối năm ngoái, Microsoft đã cung cấp "lượng GPU ở mức kỷ lục", tăng hơn gấp đôi tổng số GPU đã được lắp đặt của mình, tài liệu nêu rõ mà không đề cập đến con số thực tế.

Số lượng và phạm vi GPU của Microsoft đã mở rộng sang thêm 39 trung tâm dữ liệu trong giai đoạn này. Gã khổng lồ công nghệ Mỹ hiện có nhóm các máy tính được kết nối và tối ưu hóa để thực hiện các tác vụ AI hoạt động tại 98 địa điểm trên toàn cầu.

Các nhà phân tích tại hãng DA Davidson ước tính rằng Microsoft đã chi 4,5 tỉ USD cho GPU Nvidia vào năm ngoái, con số mà một nhà quản lý tại Microsoft nói là gần với mức chi tiêu thực tế của họ.

Microsoft có nỗ lực nội bộ nhằm thiết kế chip AI của riêng mình nhằm giảm sự phụ thuộc vào Nvidia, nhưng một số nhân viên tỏ ra nghi ngờ dự án này vì công ty đi sau Nvidia nhiều năm và công nghệ tiên tiến phát triển quá nhanh.

Sơn Vân